计算机视觉知识点总结
加入极市专业CV交流群,与6000+来自腾讯,华为,百度,北大,清华,中科院等名企名校视觉开发者互动交流!更有机会与李开复老师等大牛群内互动!
同时提供每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流。扫描文末二维码立刻申请入群~
分享一篇计算机视觉知识点的相关博文汇总,非常系统全面,超多干货,也欢迎大家补充好的文章。本文涉及较多超链接,已经发布在极市开发者社区:
http://bbs.cvmart.net/articles/380(或直接阅读原文),欢迎前往获得更好的阅读体验。
作者 | JustDoIT
来源 | https://zhuanlan.zhihu.com/p/58776542
目录
0 计算机视觉四大基本任务
1 经典卷积网络
2 卷积、空洞卷积
3 正则化
4 全卷积网络
5 1*1卷积核
6 感受野
7 常见损失
8 优化算法
9 concat 和 add的区别
10 注意力机制
11 CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)
12 边框回归
13 非极大值回归(NMS, Soft NMS)
14 激活函数
15 评价指标
16 batch size的选择
17 Graph Convolutional Network(GCN)
0 计算机视觉四大基本任务
计算机视觉四大基本任务(分类、定位、检测、分割)
目标检测解读汇总
目标检测论文及解读汇总
图像语义分割综述
图像语义分割综述
1 经典卷积网络
AlexNet
从AlexNet理解卷积神经网络的一般结构
VGG
【深度学习】经典神经网络 VGG 论文解读
深度学习之基础模型-VGG
GoogleNet
深度学习卷积神经网络——经典网络GoogLeNet(Inception V3)网络的搭建与实现
ResNet
ResNet解析
ResNetV2:ResNet深度解析
Xception
Xception算法详解
DenseNet
DenseNet算法详解
DetNet
旷视科技提出物体检测专用Backbone——DetNet
2 卷积、空洞卷积
变形卷积核、可分离卷积?卷积神经网络中十大拍案叫绝的操作。
卷积
如何通俗易懂地解释卷积?
“看懂”卷积神经网(Visualizing and Understanding Convolutional Networks)
CNN入门必读经典:Visualizing and Understanding Convolutional Networks
3 正则化
batch normalization、group normalization
Batch Normalization导读
深度学习中的Normalization模型
Group Normalization 及其MXNet、Gluon实现
dropout
理解dropout
L1、L2
机器学习中的范数规则化之(一)L0、L1与L2范数
机器学习中正则化项L1和L2的直观理解
4 全卷积网络
全卷积网络 FCN 详解
5 1*1卷积核
一文读懂卷积神经网络中的1x1卷积核
卷积神经网络中用1*1 卷积有什么作用或者好处呢?
如何理解卷积神经网络中的1*1卷积
6 感受野
深度神经网络中的感受野(Receptive Field)
7 常见损失
损失函数改进方法总览
请问faster rcnn和ssd 中为什么用smooth l1 loss,和l2有什么区别?
focal loss
何恺明大神的「Focal Loss」,如何更好地理解?
交叉熵
交叉熵损失函数
卷积神经网络系列之softmax,softmax loss和cross entropy的讲解
对比损失(Contrastive Loss)
Contrastive Loss (对比损失)
三元组损失(Triplet Loss)
Triplet Loss及其梯度
8 优化算法
Momentum
路遥知马力——Momentum
Nesterov Accelerated Gradient
比Momentum更快:揭开Nesterov Accelerated Gradient的真面目
9 concat 和 add的区别
如何理解神经网络中通过add的方式融合特征?
10 注意力机制
计算机视觉中的注意力机制
计算机视觉中的注意力机制
11 CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)
CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?
12 边框回归
边框回归(Bounding Box Regression)详解
13 非极大值回归(NMS, Soft NMS)
NMS
NMS——非极大值抑制
Soft NMS
Soft NMS算法笔记
14 激活函数
深度学习中的激活函数导引
如何理解ReLU activation function?
请问人工神经网络中的activation function的作用具体是什么?为什么ReLu要好过于tanh和sigmoid function?
15 评价指标
目标检测mAP
rafaelpadilla/Object-Detection-Metrics
语义分割(PA、MPA、MIoU、FWIoU)
语义分割之评价指标
可参考下面论文第五章节
A Review on Deep Learning Techniques Applied to Semantic Segmentation
16 batch size的选择
怎么选取训练神经网络时的Batch size?
深度机器学习中的batch的大小对学习效果有何影响?
17 Graph Convolutional Network(GCN)
如何理解 Graph Convolutional Network(GCN)?
*推荐阅读
一文看尽2018全年计算机视觉大突破
计算机视觉领域最全汇总
扫描下方二维码,即可申请加入极市目标跟踪、目标检测、工业检测、人脸方向、视觉竞赛等技术交流群,更有每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流,一起来让思想之光照的更远吧~
觉得有用麻烦给个好看啦~